Donald Trump a annulé dès son premier jour un décret pris par son prédécesseur Joe Biden sur la sécurité en matière d'IA. Les sociétés du secteur ont depuis moins d'obligations.

( AFP / GREG BAKER )
Google se laisse le champ libre dans le développement de l'intelligence artificielle (IA), tournant mardi 4 février le dos au principe de rester à l'écart des armes et des systèmes de surveillance, deux semaines après l'investiture de Donald Trump.
Plusieurs engagements pris en 2018 n'apparaissent plus dans une charte intitulée "Nos principes". L'entreprise semble ainsi avoir supprimé ses promesses de ne pas chercher à développer "les armes ou autres technologies dont l'objectif principal (...) est de blesser des personnes", "les technologies qui recueillent ou utilisent des informations à des fins de surveillance en violation des normes internationalement acceptées" et "les technologies dont le but contrevient aux principes largement acceptés du droit international et des droits humains".
Ces formulations apparaissent dans le billet de blog "L'IA chez Google : nos principes", publié en juin 2018, qui mentionne désormais que des "mises à jour" ont eu lieu mardi, et renvoie vers la nouvelle charte.
Le changement de politique intervient alors que Donald Trump a annulé dès son premier jour un décret pris par son prédécesseur Joe Biden sur la sécurité en matière d'IA. Les sociétés du secteur ont depuis moins d'obligations : elles n'ont plus besoin par exemple de communiquer les résultats de tests quand leurs programmes présentent "un risque sérieux en termes de sécurité nationale, de sécurité économique nationale, ou de santé publique".
"Une technologie omniprésente"
Un porte-parole de Google a refusé de confirmer à l' AFP quels principes avaient été modifiés ou retirés, renvoyant simplement vers le rapport publié mardi par l'entreprise, intitulé "l'IA responsable".
"Nous publions un rapport annuel sur la transparence depuis 2019", s'y félicitent les auteurs, James Manyika, vice-président, et Demis Hassabis, patron de la filiale d'IA Google DeepMind.
Ils expliquent que le contexte autour de l'IA a beaucoup changé depuis 2018.
"Des milliards de personnes utilisent désormais l'IA dans leur vie quotidienne", soulignent-ils. "Elle est passée d'un sujet de recherche de niche en laboratoire à une technologie qui devient aussi omniprésente que les téléphones portables et l'internet lui-même".
Ils citent aussi l'évolution des normes et les luttes géopolitiques autour de l'IA, parmi les raisons de mettre à jour leurs principes directeurs, et assurent qu'ils vont continuer à déterminer cas par cas "si les avantages l'emportent largement sur les risques potentiels" .
Les principes initiaux avaient été publiés après une pétition de salariés de Google en 2018, demandant au patron Sundar Pichai de mettre fin à la participation du groupe à un programme de recherche du Pentagone sur des drones militaires, baptisé Project Maven.
0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer